人类玩游戏大战计算机,顺带搞出了「深度学习」
By 超神经
从深蓝在 1997 年战胜当时的国际象棋世界冠军 Garry Kasparov ,到 Alpha Go 在围棋上秒杀当代高手,到已经过去了 10 年,这也是深度学习迅速发展的 10 年。
细数深度学习本身的历史还要在往前推约 30 年,在这近 40 年的时间里,深度学习逐渐从一个概念变成如今可供应用的产品,并成为人工智能技术的关键方法。
基于不同系统的 AI
早在 1956 年 8 月 31 日,著名计算机科学家 John McCarthy 在达特茅斯会议上提出人工智能计划,点燃人工智能革命的圣火,算是AI发展的开端。此后,AI 从基于规则的系统逐步过渡到基于机器学习的系统,再到如今基于深度学习的系统。
基于规则的 AI 系统
这是出现最早的AI系统,依靠人工输入的规则来运行。这也是它的主要问题——过于依赖规则,难以适应规则的变化,存在较大的应用局限。
基于机器学习的AI系统
为了解决这个问题,机器学习方法出现。该系统通过大量历史数据和人为信息输入实现自主学习,可以适应简单的数据或规则变化。
不过,该系统对人为信息输入的依赖度较高,因此需要信息输入者具有一定的专业知识,而且要保证信息准确且全面。但是,随着应用场景增加,保证信息准而全几乎不可能。
基于深度学习的AI系统
为了解决机器学习对人为信息输入依赖度过高的问题,深度学习又叫「表征性学习」出现。
该系统通过大量历史数据实现自我学习,对未来可能出现的多种结果进行预测,并制定相应解决方案。从而解决了机器学习对人为信息输入依赖度过高,以及人为信息输入存在较大错误率的问题。
在 AI、机器学习和深度学习三者关系的理解上,可以认为深度学习是机器学习的子集,机器学习是 AI 的子集。因此,深度学习对整个 AI 体系的构建是比较重要的。
神经网络:深度学习系统的基石
那么,深度学习为什么能做到这一切呢?
答案就是我们经常所说的神经网络算法,神经网络由许多简单的处理连接点组成,类似于人来的神经元组织,它一般包含以下三个层级:
输入层 : 数据输入;
隐藏层 : 与输入层相关联的处理节点(一个神经网络通常有两个以上的隐藏层);
输出层 : 将处理过的信息转换成可以被输出的节点。
神经网络的工作原理是由简单到复杂的模式识别。他们在网络的第一层学习简单的数据处理功能,然后根据相关定义生成节点,之后将这些节点输入到网络的后续层中,并派生出其他更为复杂的特性,整个过程一直持续下去,直到它被最终输出。
深度学习的兴起
1943年,美国神经科学家 Warren McCulloch 就提出基于数学和一种被称为阈值逻辑算法的神经网络计算模型,成为深度学习系统的理论基础。
但由于缺乏足够的数据用来训练深层神经网络,加上训练深层神经网络所需的计算能力不足,导致该研究发展缓慢。直到 1980 年,福岛邦彦才提出基于人工神经网络的深度学习框架。
如今,依靠大数据和云计算,深度学习得以迅速发展。从 2000 年至今,计算机的运算能力提高了10000 倍,数据存储成本也下降了约 3000 倍,而且,随着互联网崛起、智能手机不断普及和社交媒体的出现,催生出大量数据供神经网络使用。
主要应用领域
当然不可能一直陪你下围棋啦,那 AI 跟棋魂有什么差别(误)
在实际应用方面,深度学习可以做到一些此前只有人类能做的事情。比如人类善于通过图像识别特定对象,通过翻译了解不同国家的语言和文化。现在,深度学习同样能做到。
此外,在计算机视觉和自然语言处理方面,深度学习也有不错的表现。当然这些只是深度学习比较常见的应用领域,在未来深度学习还有更多可能,比如给在座的各位配置一个像「钢铁侠」中贾维斯一样的管家。
历史文章(点击图片阅读)
《细数 Google I/O 曾发布的扑街产品》
《复联还没下档,AI 已经等不及要推荐新电影了》
《Google 返华前,得先说清楚和美军什么关系》
超神经HyperAI
公众号ID:HyperAI
关注